1,627 research outputs found

    Signaux stationnaires sur graphe : étude d'un cas réel

    Get PDF
    National audienceBased on a real geographical dataset, we apply the stationarity characterisation of a graph signal, through the analysis of its spectral decomposition. In the course, we identify possible sources of non-stationarity and we elaborate on the impact of the graph used to model the structural coherence of the data.Sur un jeu de données géographiques réelles, nous appliquons la caractérisation de la propriété de stationnarité d'un signal sur graphe via l'analyse de ses coefficients spectraux. Nous identifions différentes sources possibles de non-stationnarité et isolons l'influence qu'a le graphe sous-jacent sur la cohérence structurelle des données

    Revue bibliographique des méthodes de prévision des débits

    Get PDF
    Dans le domaine de la prévision des débits, une grande variété de méthodes sont disponibles: des modèles stochastiques et conceptuels mais aussi des approches plus novatrices telles que les réseaux de neurones artificiels, les modèles à base de règles floues, la méthode des k plus proches voisins, la régression floue et les splines de régression. Après avoir effectué une revue détaillée de ces méthodes et de leurs applications récentes, nous proposons une classification qui permet de mettre en lumière les différences mais aussi les ressemblances entre ces approches. Elles sont ensuite comparées pour les problèmes différents de la prévision à court, moyen et long terme. Les recommandations que nous effectuons varient aussi avec le niveau d'information a priori. Par exemple, lorsque l'on dispose de séries chronologiques stationnaires de longue durée, nous recommandons l'emploi de la méthode non paramétrique des k plus proches voisins pour les prévisions à court et moyen terme. Au contraire, pour la prévision à plus long terme à partir d'un nombre restreint d'observations, nous suggérons l'emploi d'un modèle conceptuel couplé à un modèle météorologique basé sur l'historique. Bien que l'emphase soit mise sur le problème de la prévision des débits, une grande partie de cette revue, principalement celle traitant des modèles empiriques, est aussi pertinente pour la prévision d'autres variables.A large number of models are available for streamflow forecasting. In this paper we classify and compare nine types of models for short, medium and long-term flow forecasting, according to six criteria: 1. validity of underlying hypotheses, 2. difficulties encountered when building and calibrating the model, 3. difficulties in computing the forecasts, 4. uncertainty modeling, 5. information required by each type of model, and 6. parameter updating. We first distinguish between empirical and conceptual models, the difference being that conceptual models correspond to simplified representations of the watershed, while empirical model only try to capture the structural relationships between inputs to the watershed and outputs, such as streamflow. Amongst empirical models, we distinguish between stochastic models, i.e. models based on the theory of probability, and non-stochastic models. Three types of stochastic models are presented: statistical regression models, Box-Jenkins models, and the nonparametric k-nearest neighbor method. Statistical linear regression is only applicable for long term forecasting (monthly flows, for example), since it requires independent and identically distributed observations. It is a simple method of forecasting, and its hypotheses can be validated a posteriori if sufficient data are available. Box-Jenkins models include linear autoregressive models (AR), linear moving average models (MA), linear autoregressive - moving average models (ARMA), periodic ARMA models (PARMA) and ARMA models with auxiliary inputs (ARMAX). They are more adapted for weekly or daily flow forecasting, since the yallow for the explicit modeling of time dependence. Efficient methods are available for designing the model and updating the parameters as more data become available. For both statistical linear regression and Box-Jenkins models, the inputs must be uncorrelated and linearly related to the output. Furthermore, the process must be stationary. When it is suspected that the inputs are correlated or have a nonlinear effect on the output, the k-nearest neighbor method may be considered. This data-based nonparametric approach simply consists in looking, among past observations of the process, for the k events which are most similar to the present situation. A forecast is then built from the flows which were observed for these k events. Obviously, this approach requires a large database and a stationary process. Furthermore, the time required to calibrate the model and compute the forecasts increases rapidly with the size of the database. A clear advantage of stochastic models is that forecast uncertainty may be quantified by constructing a confidence interval. Three types of non-stochastic empirical models are also discussed: artificial neural networks (ANN), fuzzy linear regression and multivariate adaptive regression splines (MARS). ANNs were originally designed as simple conceptual models of the brain. However, for forecasting purposes, these models can be thought of simply as a subset of non linear empirical models. In fact, the ANN model most commonly used in forecasting, a multi-layer feed-forward network, corresponds to a non linear autoregressive model (NAR). To capture the moving average components of a time series, it is necessary to use recurrent architectures. ANNs are difficult to design and calibrate, and the computation of forecasts is also complex. Fuzzy linear regression makes it possible to extract linear relationships from small data sets, with fewer hypotheses than statistical linear regression. It does not require the observations to be uncorrelated, nor does it ask for the error variance to be homogeneous. However, the model is very sensitive to outliers. Furthermore, a posteriori validation of the hypothesis of linearity is not possible for small data sets. MARS models are based on the hypothesis that time series are chaotic instead of stochastic. The main advantage of the method is its ability to model non-stationary processes. The approach is non-parametric, and therefore requires a large data set.Amongst conceptual models, we distinguish between physical models, hydraulic machines, and fuzzy rule-based systems. Most conceptual hydrologic models are hydraulic machines, in which the watershed is considered to behave like a network of reservoirs. Physical modeling of a watershed would imply using fundamental physical equations at a small scale, such as the law of conservation of mass. Given the complexity of a watershed, this can be done in practice only for water routing. Consequently, only short term flow forecasts can be obtained from a physical model, since the effects of precipitation, infiltration and evaporation must be negligible. Fuzzy rule-based systems make it possible to model the water cycle using fuzzy IF-THEN rules, such as IF it rains a lot in a short period of time, THEN there will be a large flow increase following the concentration time. Each fuzzy quantifier is modeled using a fuzzy number to take into account the uncertainty surrounding it. When sufficient data are available, the fuzzy quantifiers can be constructed from the data. In general, conceptual models require more effort to develop than empirical models. However, for exceptional events, conceptual models can often provide more realistic forecasts, since empirical models are not well suited for extrapolation.A fruitful approach is to combine conceptual and empirical models. One way of doing this, called extended streamflow prediction or ESP, is to combine a stochastic model for generating meteorological scenarios with a conceptual model of the watershed.Based on this review of flow forecasting models, we recommend for short term forecasting (hourly and daily flows) the use of the k-nearest neighbor method, Box-Jenkins models, water routing models or hydraulic machines. For medium term forecasting (weekly flows, for example), we recommend the k-nearest neighbor method and Box-Jenkins models, as well as fuzzy-rule based and ESP models. For long term forecasting (monthly flows), we recommend statistical and fuzzy regression, Box-Jenkins, MARS and ESP models. It is important to choose a type of model which is appropriate for the problem at hand and for which the information available is sufficient. Each type of model having its advantages, it can be more efficient to combine different approaches when forecasting streamflow

    La persistance des ecarts de richesse au sein de leurope elargie: lapport de leconometrie des panels heterogenes non-stationnaires

    Get PDF
    Le but de cet article est de tester lhypoths0065 de convergence re006cle au sein de lEurope-24 006ca lumir0065 de lc006fnomt0072ie des donne0073 de panel htrogn0065s nonstationnaires. Nous employons pour cela une approche en termes de persistance des c0061rts des revenus par tt0065 au sein de lEurope l0061rgie vers lEst. Les tests de racine unitaire en panel permettent de conclure 006cabsence de la persistance des c0061rts de richesse dans le temps. A laide de lapproche par la cointg0072ation en panel, nous cherchons alors 0069dentifier les variables de "contrl00650026quot; de la convergence re006cle entre les Etats membres de lUE.UE, Convergence, Croissance c006fnomique, Panels htrogn0065s nonstationnaires, Ecarts de richesse

    Séries codépendantes : application à l’hypothèse de parité du pouvoir d’achat

    Get PDF
    Nous étendons les idées de la cointégration au cas de séries stationnaires, en introduisant les notions de degré de persistance des chocs et de vecteurs de codépendance, directions peu sensibles à ces chocs. Ces notions sont ensuite appliquées à l’étude de la parité du pouvoir d’achat en relatif entre la France et l’Allemagne.We extend the ideas of cointegration theory to the case of stationary series, by introducing the notions of persistence degree and of codependence vectors. These give the directions which are the less sensitive to the shocks. Then these notions are applied to the study of relative purchasing power parity hypothesis between France and Germany

    Europe de la Défense:Quel processus d’allocation ?

    Get PDF
    Depuis 1999, l’Union européenne a décidé de disposer d’une politique de sécurité et de défense (pesd) autonome. La très forte hétérogénéité des préférences de chacun des États membres implique de définir la nature du processus d’allocation des ressources de défense au sein de cet espace. En assimilant la sécurité européenne à un bien collectif impur caractérisé par des phénomènes de spillin, cet article propose de tester, à partir d’un cadre d’analyse emprunté à l’économie des alliances, si l’Europe de la Défense suit un processus de type Cournot-Nash ou Lindhal. L’estimation économétrique, réalisée sur la période 1980-2002, admet qu’un processus Cournot-Nash est préféré pour dix des quinze pays de l’ue et souligne la difficulté de préciser un prix fiscal pour l’Europe de la Défense.The European Union has decided to implement in 1999 an independent European security and defence policy (esdp). As preferences in defence issues are strongly heterogeneous, it is required to determine the kind of allocation process for providing defence resources within this European space. By assuming European security as an impure public good due to spillin effects and considering an economics of alliance framework, this article aims at verifying whether a Nash-Cournot process or Lindhal process is better suitable for the esdp. Based on an econometric analysis for the 1980-2002 period, it is verified that the Europe of Defence follows a Nash-Cournot process for 10 out of 15 European countries. This result emphasizes the difficulty for defining a fiscal price in defence

    Variabilité climatique et statistiques. Etude par simulation de la puissance et de la robustesse de quelques tests utilisés pour vérifier l'homogénéité de chroniques

    Get PDF
    L'analyse statistique de séries chronologiques de données hydrométéorologiques est un des outils d'identification de variations climatiques. Cette analyse consiste le plus souvent à la mise en œuvre et à l'interprétation de tests statistiques d'homogénéité des séries. Les séries hydrologiques (données de pluie ou de débit) se caractérisent fréquemment par des effectifs faibles, et ne répondent que rarement aux conditions requises par l'application des tests statistiques dont certains sont paramétriques.Nous avons cherché à évaluer, en terme de puissance et de robustesse, le comportement de quelques méthodes statistiques largement employées dans les études de variabilité climatique. Ce travail a été mené dans chaque cas étudié au moyen de procédures de simulations type Monte-Carlo de 100 échantillons de 50 valeurs conformes aux caractéristiques souvent rencontrées dans les séries naturelles. La variabilité simulée est celle d'un changement brutal de la moyenne. Les procédures concernées sont le test de corrélation sur le rang, le test de Pettitt, le test de Buishand, la procédure bayésienne de Lee et Heghinian, et la procédure de segmentation des séries hydrométéorologiques de Hubert et Carbonnel. Des séries artificielles soit stationnaires, soit affectées par une rupture de la moyenne, normales, non-normales, autocorrélées, présentant une tendance linéaire ou un changement brutal de la variance ont été générées.Les conclusions de ce travail doivent être nuancées selon la méthode considérée. D'une manière générale la puissance maximale estimée se situe autour de 50% pour des taux de rupture de la moyenne de l'ordre de 75% de la valeur de l'écart-type. Par ailleurs il apparaît que l'autocorrélation et la présence d'une tendance dans les séries sont les deux caractéristiques qui pénalisent le plus les performances des procédures.Statistical analysis of hydrometeorological time series is often used to identify climatic variations. Most often this analysis consists of applying and interpreting statistical tests of time series homogeneity. Hydrological time series (rainfall and runoff data) are often short and do not always comply with the hypotheses of the statistical methods. Through simulation we have investigated the power and the robustness of some tests which are widely used in the studies dealing with climatic variability. In each case studied, one hundred samples of fifty elements have been generated based on the main characteristics of natural rainfall series. A shift in the mean has been used to represent a possible climatic variation. The procedures used are the rank correlation test, Pettitt's test, Buishand's test, Lee and Heghinian's bayesian procedure, and Hubert and Carbonnel's segmentation procedure for hydrometeorological series.Each simulation of one hundred samples is used to assess the performances of the methods considering a specific characteristic of the series: normality or non-normality, autocorrelation, trend, shift in the variance. First of all, stationary series have been simulated to evaluate the type I error of the tests. Then the series have been simulated with a break in the mean with different levels of amplitude, from 25% to 100% of the standard deviation value. The rank correlation test, Pettitt's test, Buishand's test and the segmentation procedure with a significance level of 1% (significance level of Scheffé's test) reject as heterogeneous less than ten series over one hundred homogeneous simulated series. This result is consistent with the type I error of a statistical test. On the other hand, Lee and Heghinian's bayesian method rejects about 40% of the series. This result means that this latter procedure must only be applied under the hypothesis of heterogeneity. The estimated power of the methods exceeds 40% to 50% when the break in the mean is more than 75% of the standard deviation value.Independent series have been simulated from normal, log-normal and Pearson distributions to compare the performances of the methods requiring normality. The results show that normality has no significant impact on the performances of these methods. However, the simulations do show that the condition of independence of the successive elements of the series is essential to keep performances constant. Otherwise a trend in the series makes the tests inefficient, except for the rank correlation test for which the alternative is a trend. No method seems to be robust against both negative and positive autoregressive dependencies. The procedures requiring a constant variance are robust when the series keep a constant mean, but seem more or less slightly influenced by a break both in the mean and in the standard deviation

    Filière fruits et légumes : comment la grande distribution transmet-elle aux consommateurs les variations de prix à la production

    Get PDF
    La formation des prix au sein des filières agro-alimentaires présente un intérêt considérable pour les acteurs de ces filières ainsi que pour les pouvoirs publics. En témoignent les manifestations récurrentes de producteurs agricoles qui dénoncent la responsabilité des intermédiaires et notamment de la grande distribution. La filière des fruits et légumes frais est l'une des plus concernées. L'absence de transformation industrielle des produits accentue le caractère direct de la confrontation entre les producteurs et une grande distribution dont la part de marché est désormais prépondérante (environ 60% des ventes de fruits et légumes en France sont réalisées en grande et moyenne surfaces (GMS)). L'un des reproches les plus fréquemment adressés aux GMS est de répercuter plus facilement au consommateur les hausses de prix intervenues en amont que les baisses. Un tel comportement aggraverait naturellement les crises de surproduction. En effet, dans ce cas, la rigidité des prix de détail empêche que l'effet négatif de la baisse des prix sur le revenu soit compensé par une augmentation des volumes écoulés. Cette recherche vise à verser à ce dossier des éléments objectifs d'appréciation. Ceux-ci sont issus d'un traitement économétrique des données de prix recueillies par le Service des Nouvelles des Marchés (SNM, ministère de l'Agriculture et de la Pêche), à différents stades de la filière fruits et légumes. Trois produits sont considérés : tomate, endive, chou-fleur.

    Relation entre la volatilité implicite et la volatilité réalisée

    Full text link
    Rapport de rechercheNuméro de référence interne originel : a1.1 g 102

    Séries codépendantes : application à l’hypothèse de parité du pouvoir d’achat

    Get PDF
    We extend the ideas of cointegration theory to the case of stationary series, by introducing the notions of persistence degree and of codependence vectors. These give the directions which are the less sensitive to the shocks. Then these notions are applied to the study of relative purchasing power parity hypothesis between France and Germany. Nous étendons les idées de la cointégration au cas de séries stationnaires, en introduisant les notions de degré de persistance des chocs et de vecteurs de codépendance, directions peu sensibles à ces chocs. Ces notions sont ensuite appliquées à l’étude de la parité du pouvoir d’achat en relatif entre la France et l’Allemagne.
    • …
    corecore